SoSe2021

Folienübersicht

t-Test: Parametrischer 1- und 2-Stichprobentest

Prüfen von Mittelwertunterschieden metrischer Daten

Zur Erinnerung

Parametrische Tests

  • Verteilungsabhängig
  • Arbeiten mit \(\bar{X}, s^2, s\)
  • Nur für metrische Daten
  • Annahmen:
    1. Unabhängigkeit (außer gepaarter t-Test)
    2. Varianzhomogenität (gleiche Varianzen)
    3. Normalität (Normalverteilung)
  • Tests:
    • F-Test
    • t-Test für 1 und 2 Stichproben
    • Varianzanalyse (ANOVA)
    • Kovarianzanalyse (ANCOVA)
    • Lineare Regression
    • Pearsons Produkt-Moment-Korrelationskoeffizient

Prüfen der Annahmen

  • Schritt 1: Prüfen, ob Werte von Normalverteilung abweichen.
    • Grafisch: Histogramm, Boxplot
    • Test: Shapiro-Wilk- oder Kolmogorov-Smirnoff-Test
  • Schritt 2: Prüfen, ob die Varianzen in beiden Stichproben gleich verteilt sind.
    • Grafisch: Boxplot
    • Test: F-Test

t-Test in R

Build-in Funktion t.test()

t.test(x, y = NULL,
       alternative = c("two.sided", "less", "greater"),
       mu = 0, paired = FALSE, var.equal = FALSE,
       conf.level = 0.95, ...)

t-Test für 1 Stichprobe

  • Hier wird getestet, ob sich der Mittelwert einer einzelnen Stichprobe von einem vorgegebenen Populationsmittelwert \(\mu_0\) unterscheidet.
  • Die Teststatistik t folgt einer t-Verteilung.

Anwendung

  • Zur Prüfung, ob die Steigung einer linearen Regression signifikant von Null abweicht (\(H_0: b=\beta=0\))
  • Vergleich einer Stichprobe mit einer anderen, bei der nur der Mittelwert bekannt ist.

Formel

\[t=\frac{\bar{X}-\mu_0}{s_{\bar{X}}}=\frac{\bar{X}-\mu_0}{\frac{s}{\sqrt{n}}}\Rightarrow~~\text{wenn}~\mu_0 = 0: \frac{\bar{X}}{\frac{s}{\sqrt{n}}}\]

  • \(\bar{X}\) = Stichprobenmittelwert
  • \(\mu_0\) = theoretischer Populationsmittelwert
  • \(s_\bar{X}\) = Standardschätzfehler des Mittelwerts

Hypothesen

  • zweiseitig:
    • \(H_0: \mu = \mu_0\) vs. \(H_A: \mu \neq \mu_0\)
  • linksseitig:
    • \(H_0: \mu \geq \mu_0\) vs. \(H_A: \mu < \mu_0\)
  • rechtsseitig:
    • \(H_0: \mu \leq \mu_0\) vs. \(H_A: \mu > \mu_0\)

t-Test für 1 Stichprobe

Beispiel Zugverhalten 1

Forschungsfrage

Unterscheidet sich unsere Stichprobe zum Zugverhalten des Buchfinks (BF1) von einer anderen Stichprobe (BF2), für die wir nur den Mittelwert kennen?

Kenngröße BF1 BF2
Mittelwert 1800km 1697km
Standardabweichung s ±900km ?
Stichprobengröße n 20 ?

t-Test für 1 Stichprobe

Beispiel Zugverhalten 2

Forschungsfrage

Unterscheidet sich unsere Stichprobe zum Zugverhalten des Buchfinks (BF1) von einer anderen Stichprobe (BF2), für die wir nur den Mittelwert kennen?

Kenngröße BF1 BF2
Mittelwert 1800km 1697km
Standardabweichung s ±900km ?
Stichprobengröße n 20 ?
Kennwert: \(\mu\) bzw. \(\bar{X}\)
H0: \(BF1 = BF2\)
HA: \(BF1 \neq BF2\)
Voraussetzung: Erfüllt (Stichprobe ist normal verteilt)
Teststatistik: t
alpha: 0.05
FG: n-1 = 19
p-Wert: Der t-Wert wird mit dem \(t_{krit}\) aus der t-Verteilung verglichen.

t-Test für 1 Stichprobe

Beispiel Zugverhalten 3

Die Daten

bf
 [1]  697.62 1619.21  742.97 1065.16 1177.78   26.50 2764.10 2021.90  621.37
[10] 3215.24
 [ reached getOption("max.print") -- omitted 10 entries ]

Manuelle Berechnung

# Berechnung des t-Werts
(t.val <- (mean(bf)-1697)/(sd(bf)/sqrt(20)) )
[1] 0.5118085
# Kritischer t-Wert
qt(p = c(0.025, 0.975), df = 19)
[1] -2.093024  2.093024
# P für berechneten t-Wert
pt(t.val, df = 19, lower.tail = FALSE)*2
[1] 0.6146824

t-Test für 1 Stichprobe

Beispiel Zugverhalten 4

Build-in Funktion t.test()

t.test(x = bf, mu = 1697, 
  alternative = "two.sided") # default
    One Sample t-test

data:  bf
t = 0.51181, df = 19, p-value = 0.6147
alternative hypothesis: true mean is not equal to 1697
95 percent confidence interval:
 1378.786 2221.213
sample estimates:
mean of x 
 1799.999 

Zusammenfassung

  • Die Teststatistik t liegt zwischen dem unteren und oberen \(t_{krit}\), somit kann die \(H_0\) nicht verworfen werden.
  • Anders ausgedrückt: Die Wahrscheinlichkeit ein statistisches Ergebnis wie das beobachtete zu erhalten, wenn die Nullhypothese wahr wäre, liegt bei 61.5%. Somit können wir annehmen, dass die \(H_0\) wahr ist.

→ Es gibt keinen signifikanten Unterschied zwischen unserer Stichprobe und der Vergleichsstichprobe (t = 0.51, df = 19, p > 0.5).

Student’s t-Test für 2 unabhängige Stichproben mit gleichen Varianzen

  • Der am häufigsten verwendete Zweistichproben-Test.
  • Der Stichprobenumfang beider Gruppen darf ungleich sein.
  • Theoretisch kann der t-Test auch bei sehr kleinen Stichprobenumfängen (z. B. 10) verwendet werden.
  • Testet die Nullhypothese, dass die Mittelwerte von zwei Populationen gleich sind:
    • \(H_0: \mu_1 = \mu_2\) bzw. \(\mu_1-\mu_2=0\)

Formel

\[t=\frac{(\bar{X}_1-\bar{X}_2) -(\mu_1 - \mu_2)}{s_p \sqrt{\frac{1}{n_1} + \frac{1}{n_2}}} \Rightarrow~~\text{wenn}~~\mu_1-\mu_2=0:~t = \frac{(\bar{X}_1-\bar{X}_2)}{s_p \sqrt{\frac{1}{n_1} + \frac{1}{n_2}}}\]

\(s_p\) = Standardabweichung der gepoolten Stichprobe: \(s_p = \sqrt{\frac{(n_1-1)s_1^2 + (n_2 -1)s_2^2}{(n_1-1) + (n_2-1)}}\)

t-Test für 2 unabhängige Stichproben mit ungleichen Varianzen (Welch Test)

  • Was ist, wenn die Varianzen nicht gleich sind?
  • Dann ist die t-Verteilung mit \((n_1-1)+(n_2-1)\) Freiheitsgraden keine gute Annäherung an die Stichprobenverteilung und auch die gepoolte Schätzung der Standardabweichung ist nicht mehr geeignet.
  • Sowohl die Teststatistik t als auch die FGs müssen angepasst werden:

Formel

\[t=\frac{(\bar{X}_1-\bar{X}_2) -(\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}}\]

= “Welch Two Sample t-test” (Standardeinstellung in R)

Gepaarter t-Test: 2 abhängige Stichproben

  • Abhängigkeit entsteht z.B. durch
    • Messwiederholung der gleichen Stichprobe (vor und nach einer Behandlung, Stichproben in zwei verschiedenen Jahren usw.),
    • wenn Paare auf zwei Gruppen aufgeteilt werden (es wird z.B. der Größenunterschied zwischen weiblichen und männlichen Schwänen untersucht, aber nur Paare beprobt).
  • Testet die Nullhypothese, dass die Mittelwerte von zwei Populationen gleich sind bzw. die Differenz zwischen den gepaarten Beobachtungen Null ist:
    • \(H_0: d = \mu_1-\mu_2 = 0\)

Berechnung

  1. Berechnung der Differenzen der gepaarten Beobachtung.
  2. Berechnung des Mittelwerts und der Standardabweichung aus diesen Differenzen.

Formel

\[t = \frac{\bar{d}-\mu_d}{s_{\bar{d}}} = \frac{\bar{d}-\mu_d}{\frac{s}{\sqrt{n}}}\]

mit \(FG = n-1\)

Übersicht der 1- und 2-seitigen Hypothesen bei t-Tests

Übersicht der t-Test Anwendungen in R

t.test()

  • 1-Stichproben t-Test, zweiseitige Hypothese (Standard):
    • t.test(x, mu)
  • Unabhängiger 2-Stichproben-t-Test (gleiche Varianzen), zweiseitig: \(H_A\): µ1 ≠ µ2
    • t.test( x, y, var.equal = TRUE)
  • Unabhängiger 2-Stichproben-t-Test (gleiche Varianzen), einseitig: \(H_A\): µ1 > µ2:
    • t.test( x, y, var.equal = TRUE, alternative = “greater”)
  • Welch-Test (ungleiche Varianzen = default), einseitig: \(H_A\): µ1 < µ2
    • t.test( x, y, alternative = “smaller”)
  • Gepaarter 2-Stichproben-t-Test (gleiche Varianzen) , zweiseitige Hypothese:
    • t.test( x, y, paired = TRUE, var.equal = TRUE)
  • Gepaarter t-Test mit 2 Stichproben (ungleiche Varianzen) , einseitig: \(H_A\): µ1 > µ2
    • t.test( x, y, paired = TRUE, alternative = “greater”)

Beispiel Zugverhalten: Buchfinken vs. Mönchsgrasmücken

1

Unterscheidet sich das durchschnittliche Zugverhalten zwischen Buchfinken und Mönchsgrasmücken?

Beispiel Zugverhalten

Kenngröße Buchfink Mönchsgrasmücke
Mittelwert 1800km 3000km
Standardabweichung s ±900km ±1000km
Stichprobengröße n 20 30


Buchfink


Mönchsgrasmücke

Beispiel Zugverhalten: Buchfinken vs. Mönchsgrasmücken

2

Kennwert: \(\mu\) bzw. \(\bar{X}\)
H0: \(\mu_{BF} = \mu_{MGM}\)
HA: \(\mu_{BF} \neq \mu_{MGM}\)
Voraussetzung: Erfüllt (Stichproben sind normal verteilt und Varianzen gleich)
Teststatistik: \(t = \frac{(\bar{X}_{BF}-\bar{X}_{MGM})}{s_p \sqrt{\frac{1}{n_{BF}} + \frac{1}{n_{MGM}}}}\)
alpha: 0.05
FG: \((n_{BF}-1)+(n_{MGM}-1)\) = 19 + 29
p-Wert: Der t-Wert wird mit dem \(t_{krit}\) aus der t-Verteilung verglichen.
t.test(x = bf, y = mgm, var.equal = TRUE)
    Two Sample t-test

data:  bf and mgm
t = -4.3226, df = 48, p-value = 7.733e-05
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -1758.1677  -641.8326
sample estimates:
mean of x mean of y 
 1799.999  3000.000 
  • \(H_0\) kann abgelehnt werden.
  • Die Zuglänge ist bei Buchfinken signifikant kleiner als bei Mönchsgrasmücken (t = -4.3, df = 48, p < 0.001).
p

Your turn …

Quiz 1 zum Nachmachen

Kelchblattlänge in iris

Ausgangssituation:

  • Es soll die Hypothese getestet werden, dass die durchschnittliche Kelchblattlänge der Art Iris setosa kleiner ist als bei der Art Iris virginica.
  • Beide Stichproben sind normal verteilt (jeweils W = 0.97, p > 0.05).
  • Die Varianzen beider Stichproben sind signifikant unterschiedlich (\(F_{(49,49)}=3.25\), p < 0.001).

Quiz 2 zum Nachmachen

Kelchblattlänge in iris

set <- iris$Sepal.Length[iris$Species=="setosa"]
vir <- iris$Sepal.Length[iris$Species=="virginica"]

Quiz 3 zum Nachmachen

Kelchblattlänge in iris

t.test(x = set, y = vir, alternative = 'less')
    Welch Two Sample t-test

data:  set and vir
t = -15.386, df = 76.516, p-value < 2.2e-16
alternative hypothesis: true difference in means is less than 0
95 percent confidence interval:
      -Inf -1.410804
sample estimates:
mean of x mean of y 
    5.006     6.588 

Nicht-Parametrische Tests - Teil 1

Vergleich zweier Stichproben mit metrischen und ordinalen Daten

Zur Erinnerung

Nicht-Parametrische Tests

  • Verteilungsfrei (keine Normalverteilung erforderlich)
  • Arbeiten mit Median und Rängen
  • Für metrische, ordinale, und nominale Daten
  • Teststärke ist allgemein niedriger
  • Nicht geeignet, wenn das Design komplex ist
  • Tests:
    • Mann-Whitney U-Test
    • Wilcoxon-Vorzeichen-Rang-Test
    • Chi-Quadrat-Tests
    • Kruskal-Wallis-Test
    • Friedman-Test
    • Rangkorrelation (z.B. Spearman, Kendall)

Wann werden nicht-parametrische Tests noch verwendet?

  • Bei kleinen Stichproben (n = 3-10) ist es oft nicht möglich zu zeigen, dass metrische Daten von einer Normalverteilung abweichen, auch wenn sie real weit von davon entfernt sind, normalverteilt zu sein.
    • Bsp.: Verteilung der Baumdurchmesser im Trockenwald: 5, 5, 5, 6, 6, 7, 9, 10, 15, 188 cm
  • Unter diesen Bedingungen werden die metrischen Daten in ordinale Daten (= Rangdaten) überführt, um damit weiterzurechnen.

2 unabhängige Stichproben: Mann-Whitney U-Test

  • Einer der bekanntesten nicht-parametrischen Signifikanztests.
  • Auch Mann-Whitney-Wilcoxon (MWW)-Test oder Wilcoxon-Rangsummentest genannt.
  • Äquivalent zum unabhängigen 2-Stichproben t-Test, allerdings nur 95% der Teststärke.
  • Ziel:
    • Vergleich der Mediane zweier unabhängiger Stichproben auf signifikanten Unterschied, wobei Rangsummen verwendet werden.
  • Bedingungen:
    • Beide Grundgesamtheiten sollten stetige Verteilungen von gleicher Form haben.
    • Daten müssen mindestens ordinalskaliert sein.
    • Stichproben können verbunden sein.

Mann Whitney U

Berechnung

  1. Bilden der Ränge für die Werte beider Stichproben zusammen (\(N=m+n\)).
    • Bei gleichen Werten werden Rangmittelwerte vergeben.
  2. Bilden der Rangsummen für jede der beiden Gruppen (\(R_x\) und \(R_y\))
    • Bei unterschiedlichen Stichprobengrößen sind die Rangsummen auch unterschiedlich.
  3. Berechnen von \(U_x\) und \(U_y\):
    • \(U_x = m*n+\frac{m(m+1)}{2}-R_x\)
    • \(U_y = m*n+\frac{n(n+1)}{2}-R_y\) oder \(U_y = m*n-U_x\)
  4. Für R das kleinere der errechneten U nehmen: \(U_{min} = min(U_x, U_y)\)
    • Wenn das errechnete \(U_{min}\) kleiner ist, als das für die gewählte Irrtumswahrscheinlichkeit tabellierte \(U_{krit}\), dann unterscheiden sich die beiden Stichproben.

Mann Whitney U

Wilcoxon Verteilung 1

Frage: Wie groß ist die Wahrscheinlichkeit, dass die beobachtete Rangsumme zufällig entstanden ist, wenn beide Stichproben zur gleichen Verteilung gehören?

  • Die Rangsumme der Ränge in einer Stichprobe wird als Zufallsvariable aus der kombinierten Rangverteilung behandelt.
  • Diese Rangverteilung wird Wilcoxon-Verteilung genannt und ist eine diskrete Verteilung → \(U_{krit} = (m, n, \alpha)\)

Z-Verteilung bei großen N

  • Für große Stichproben (nicht mehr in den U-Tabellen abgebildet) wird ein Z-Wert ausgerechnet.
  • Die Irrtumswahrscheinlichkeit für diesen z-Wert kann in der Z-Tabelle nachgeschlagen werden bzw.in R mit pnorm(z, mean = 0, sd = 1) ermittelt werden.

Mann Whitney U

Wilcoxon Verteilung 2

dwilcox(x, m, n)
pwilcox(x, m, n)
qwilcox(c(0.025, 0.975), m, n)

Mann Whitney U

Kohlmeisen Beispiel

…Great tits in cities sing faster and at a higher pitch compared to their conspecifics dwelling in forests, as reported in this issue by Slabbekoorn and den Boer-Visser [6]. They suggest that the birds changed their songs to make them stand out against the masking traffic noise in urban areas. ..

Mann Whitney U

Kohlmeisen Beispiel

Ausgangssituation

Vorgehensweise?

  • Messen von 6 verschiedenen Individuen auf dem Land und in der Stadt.

Fragestellung?

  • Singen Kohlmeisen in der Stadt lauter als auf dem Land? (1-seitig)
  • Unterscheiden sich die Gesänge von Meisen in der Stadt und auf dem Land in ihrer Lautstärke? (2-seitig)

Prüfen auf Normalverteilung?

  • Fällt weg, da bei kleinen Stichprobengrößen schwierig zu zeigen, dass Daten von Normalverteilung abweichen oder: zu faul zum Prüfen.


Kennwert: \(\mu_M\) bzw. \(\bar{X}_M\)
H0: \(\mu_{M(Stadt)} \leq \mu_{M(Land)}\) bzw. \(\mu_{M(Stadt)} = \mu_{M(Land)}\)
HA: \(\mu_{M(Stadt)}\) > \(\mu_{M(Land)}\) bzw. \(\mu_{M(Stadt)} \neq \mu_{M(Land)}\)
Voraussetzung: Fällt weg
Teststatistik: U
alpha: 0.05
FG: n-1 = 19
p-Wert: Der U-Wert wird mit dem \(U_{krit}\) aus der Wilcoxon-Verteilung verglichen.

Kohlmeisen Beispiel

U-Werte

Messung

Messort Lautstärke (in dB) Rang
Stadt 52 10
Stadt 44 6
Stadt 64 12
Stadt 53 11
Stadt 31 2
Stadt 50 9
Land 47 7
Land 29 1
Land 32 3
Land 42 5
Land 37 4
Land 48 8

\[U_x = m*n+\frac{m(m+1)}{2}-R_x\] \[U_y = m*n+\frac{n(n+1)}{2}-R_y\]

Berechnung

\(R_{Stadt}=50\)

\(R_{Land}=28\)

\(U_{Stadt}=6*6+\frac{6(6+1)}{2}-50 = 7\)

\(U_{Land}=6*6+\frac{6(6+1)}{2}-28 = 29\)

\(\Rightarrow U_{min} = U_{Stadt} = 7\)

Kohlmeisen Beispiel

Signifikanz

Krit. U-Wert

# 2-seitig (HA: Stadt != Land)
qwilcox(0.025, m = 6, n = 6)
[1] 6
pwilcox(7, m = 6, n = 6) * 2 
[1] 0.09307359
# 1-seitig (HA: Stadt > Land)
qwilcox(0.05, m = 6, n = 6)
[1] 8
pwilcox(7, m = 6, n = 6) 
[1] 0.0465368

FAZIT

  • 2-seitiger Test: \(U_{Stadt}\) < \(U_{\alpha = 0.025}\) ??
    • Die beiden Gruppen unterscheiden sich nicht (2-seitiger Mann-Whitney U Test, U = 7, p > 0.05).
  • 1-seitiger Test: \(U_{Stadt}\) < \(U_{\alpha = 0.05}\) ??
    • Die Lautstärke in der Stadt ist schwach signifikant höher (1-seitiger Mann-Whitney U Test, U = 7, p < 0.05).

Mann Whitney U in R

wilcox.test()

  • Mann Whitney U Test ist Standardeinstellung in wilcox.test() Funktion.
  • Ein exakter p-Wert wird “standardmäßig” berechnet, wenn weniger als 50 Werte und keine gleichen Ränge (“ties”) vorhanden sind. Ansonsten wird eine Näherung auf Basis der Standardnormalverteilung verwendet.

2-seitige Hypothese

wilcox.test(x = land, y = stadt)
    Wilcoxon rank sum exact test

data:  land and stadt
W = 7, p-value = 0.09307
alternative hypothesis: true location shift is not equal to 0

H0: Die Verteilungen von x und y unterscheiden sich nicht in ihrem Lageparameter \(\mu\) ( H0: \(\mu_x - \mu_y=0\)).

Mann Whitney U in R

Reihenfolge

  • Die p-Wert bezieht sich immer auf \(U_{min}\).
  • Allerdings wird immer der U-Wert wiedergegeben, der in der Funktion dem y Argument zugewiesen wird:
wilcox.test(x = land, y = stadt)
    Wilcoxon rank sum exact test

data:  land and stadt
W = 7, p-value = 0.09307
alternative hypothesis: true location shift is not equal to 0
wilcox.test(x = stadt, y = land)
    Wilcoxon rank sum exact test

data:  stadt and land
W = 29, p-value = 0.09307
alternative hypothesis: true location shift is not equal to 0

Mann Whitney U in R

1-seitige Hypothese

HA: dB (Land) < db (Stadt)

wilcox.test(x = land, y = stadt, alternative = "less")
    Wilcoxon rank sum exact test

data:  land and stadt
W = 7, p-value = 0.04654
alternative hypothesis: true location shift is less than 0

HA: dB (Stadt) > db (Land)

wilcox.test(x = stadt, y = land, alternative = "greater")
    Wilcoxon rank sum exact test

data:  stadt and land
W = 29, p-value = 0.04654
alternative hypothesis: true location shift is greater than 0

Vergleich Mann-Whitney U-Test vs. t-Test (bei falschen Annahmen)

Unterscheiden sich mit Fadenwürmern infizierte und mit Interleucin-33 behandelte Mäuse von nicht behandelten Kontrollen in der Zahl adulter Fadenwürmer im Dünndarm?

wurm <- data.frame(
  interleucin = c(5,5,5,6,8,10,10,11, 120),
  kontrolle = c(14,17,18,20,22,24,25,26,23)
)

Testergebnisse mit dem Ausreißer

Mann-Whitney U-Test

wilcox.test(wurm$interleucin, wurm$kontrolle)
    Wilcoxon rank sum test with continuity correction

data:  wurm$interleucin and wurm$kontrolle
W = 9, p-value = 0.006061
alternative hypothesis: true location shift is not equal to 0

→ \(H_0\) kann abgelehnt werden. Es gibt einen signifikanten Unterschied.

t-Test

t.test(wurm$interleucin, 
  wurm$kontrolle, var.equal = FALSE)
    Welch Two Sample t-test

data:  wurm$interleucin and wurm$kontrolle
t = -0.079381, df = 8.1841, p-value = 0.9386
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -29.93629  27.93629
sample estimates:
mean of x mean of y 
       20        21 

→ \(H_0\) kann nicht abgelehnt werden. Es gibt keinen signifikanten Unterschied.

Testergebnisse ohne den Ausreißer

Mann-Whitney U-Test

wilcox.test(wurm$interleucin[-9], wurm$kontrolle[-9])
    Wilcoxon rank sum test with continuity correction

data:  wurm$interleucin[-9] and wurm$kontrolle[-9]
W = 0, p-value = 0.0008989
alternative hypothesis: true location shift is not equal to 0

→ \(H_0\) kann weiterhin abgelehnt werden. Es gibt einen signifikanten Unterschied.

t-Test

t.test(wurm$interleucin[-9], 
  wurm$kontrolle[-9], var.equal = FALSE)
    Welch Two Sample t-test

data:  wurm$interleucin[-9] and wurm$kontrolle[-9]
t = -7.5714, df = 11.524, p-value = 8.361e-06
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -17.080474  -9.419526
sample estimates:
mean of x mean of y 
     7.50     20.75 

→ Jetzt kann \(H_0\) abgelehnt werden.

2 abhängige Stichproben: Wilcoxon-Vorzeichen-Rang-Test

Wilcoxon-Vorzeichen-Rang-Test

  • Im englischen auch Wilcoxon Signed Rank Test genannt.
  • Nicht-parametrisches Äquivalent zum gepaarten 2-Stichproben-t-Test:
    • Teststärke allerdings nur 95% des t-Tests
  • R Funktion auch wilcox.test(), aber mit Argument paired=TRUE

Vorzeichentest

  • Geringere Teststärke als der Wilcoxon-Vorzeichen-Rang-Test
  • keine R Funktion in Basispaketen

Übersicht der Anwendungen in R

wilcox.test()

  • Unabhängiger 2-Stichproben Test: Mann-Whitney U-Test, zweiseitige Hypothese (Standard): \(H_A\): µ1 ≠ µ2
    • wilcox.test( x, y)
  • Unabhängiger 2-Stichproben Test: Mann-Whitney U-Test, einseitig: \(H_A\): µ1 > µ2:
    • wilcox.test( x, y, alternative = “greater”)
  • Gepaarter 2-Stichproben-Test: Wilcoxon-Vorzeichen-Rang-Test, zweiseitige Hypothese:
    • wilcox.test( x, y, paired = TRUE)
  • Gepaarter 2-Stichproben-Test: Wilcoxon-Vorzeichen-Rang-Test, einseitig: \(H_A\): µ1 < µ2
    • wilcox.test( x, y, paired = TRUE, alternative = “less”)

Fragen?